Gemar berbagi melalui ragam teks fiksi dan nonfiksi.
AI Lebih Jujur daripada Manusia? CEO Anthropic Ungkap Fakta Mengejutkan
Minggu, 25 Mei 2025 12:29 WIB
CEO Anthropic mendaku: model Akal-akalan Imitasi atau AI lebih jarang berhalusinasi daripada manusia.
***
Dalam sebuah konferensi pers acara "Code with Claude" yang diselenggarakan oleh Anthropic di San Francisco, CEO Dario Amodei mengemukakan pandangan yang mengejutkan. Menurutnya, model AI saat ini mengalami halusinasi—yakni menghasilkan informasi yang salah namun disajikan seolah benar—dengan frekuensi yang lebih rendah dibandingkan manusia. Pernyataan ini memicu diskusi luas di kalangan profesional AI dan publik.
Mengutip dari techcrunch.com, Halusinasi dalam AI merujuk pada situasi bahwa model AI menghasilkan informasi yang tidak akurat atau sepenuhnya salah, namun disampaikan dengan keyakinan seolah-olah benar. Fenomena ini menjadi perhatian utama dalam pengembangan model bahasa besar (LLM) karena dapat menyesatkan pengguna.
Amodei berpendapat bahwa meskipun AI dapat menghasilkan informasi yang salah, manusia juga sering membuat kesalahan atau menyebarkan informasi yang tidak akurat. Namun, ia mengakui bahwa ketika AI melakukan kesalahan, presentasinya yang meyakinkan dapat menjadi masalah serius.
Mengukur tingkat halusinasi pada AI dan manusia bukanlah tugas yang mudah. Sebagian besar tolok ukur saat ini hanya membandingkan model AI satu sama lain, tanpa melibatkan perbandingan langsung dengan manusia. Hal ini menyulitkan verifikasi klaim bahwa AI lebih sedikit mengalami halusinasi dibandingkan manusia.
Beberapa teknik telah dikembangkan untuk mengurangi halusinasi pada model AI, seperti memberikan akses ke pencarian web untuk memverifikasi informasi. Model seperti GPT-4.5 dari OpenAI menunjukkan tingkat halusinasi yang lebih rendah dibandingkan generasi sebelumnya.
Meskipun Amodei mendaku bahwa model AI mengalami halusinasi lebih sedikit, terdapat kasus pada Claude, model AI dari Anthropic, menghasilkan kutipan yang salah dalam dokumen hukum, yang mengharuskan permintaan maaf dari pengacara yang menggunakannya. Kasus ini menyoroti tantangan nyata dalam mengandalkan AI untuk tugas-tugas kritis.
CEO DeepMind, Demis Hassabis, menyatakan bahwa model AI saat ini masih memiliki banyak "lubang" dan sering memberikan jawaban yang salah untuk pertanyaan sederhana. Ini menunjukkan bahwa tidak semua pemimpin di bidang AI sepakat dengan pandangan Amodei mengenai halusinasi.
Mengatasi halusinasi pada AI bukanlah tugas yang sederhana. Meskipun teknik seperti pembelajaran penguatan dan augmentasi pencarian telah digunakan, tidak ada solusi tunggal yang sepenuhnya efektif. Beberapa peneliti bahkan berpendapat, halusinasi adalah fitur bawaan dari model bahasa besar.
Untuk meningkatkan kepercayaan pengguna, penting bagi pengembang AI untuk meningkatkan transparansi dalam cara model mereka bekerja dan bagaimana mereka menangani ketidakpastian informasi. Memberikan indikasi kepercayaan atau menyatakan ketidaktahuan dapat membantu pengguna menilai keandalan informasi yang diberikan.
Pengguna juga memiliki peran penting dalam mengidentifikasi dan menangani halusinasi AI. Dengan memahami keterbatasan model AI dan memverifikasi informasi secara independen, pengguna dapat mengurangi dampak negatif dari informasi yang salah.
Halusinasi AI memiliki implikasi etis yang signifikan, terutama ketika digunakan dalam konteks medis, hukum, atau informasi publik. Kesalahan informasi dapat menyebabkan keputusan yang salah dan berdampak negatif pada individu atau masyarakat.
Meskipun tantangan halusinasi masih ada, pengembangan AI terus berlanjut dengan fokus pada peningkatan akurasi dan keandalan. Inovasi dalam arsitektur model dan teknik pelatihan diharapkan dapat mengurangi frekuensi dan dampak halusinasi di masa depan.
Untuk memastikan penggunaan AI yang aman dan bertanggung jawab, diperlukan regulasi dan standar yang mengatur pengembangan dan penerapan model AI, termasuk dalam menangani halusinasi. Kolaborasi antara pemerintah, industri, dan akademisi penting dalam merumuskan kebijakan yang efektif.
Meningkatkan literasi AI di kalangan masyarakat umum dapat membantu pengguna memahami cara kerja model AI dan keterbatasannya, termasuk potensi halusinasi. Edukasi ini penting untuk mendorong penggunaan AI yang kritis dan bijaksana.
Pernyataan Amodei menyoroti perdebatan yang sedang berlangsung tentang keandalan AI dan perbandingannya dengan kemampuan manusia. Meskipun AI menawarkan potensi besar, penting untuk menyadari dan menangani tantangan seperti halusinasi dengan pendekatan yang hati-hati dan bertanggung jawab. ***

Penulis Indonesiana
7 Pengikut

AI dalam Industri Buku, antara Manfaat dan Tantangan Etis
Rabu, 4 Juni 2025 07:05 WIB
Rahasia Memori Manusia Terletak pada Sel Otak Berbentuk Bintang
Selasa, 3 Juni 2025 12:45 WIBArtikel Terpopuler